DE eng

Search in the Catalogues and Directories

Page: 1 2 3
Hits 1 – 20 of 43

1
Word Sense Induction with Attentive Context Clustering
In: https://hal.archives-ouvertes.fr/hal-03586559 ; 2022 (2022)
BASE
Show details
2
Word Sense Induction with Attentive Context Clustering
In: https://hal.inria.fr/hal-03586559 ; 2022 (2022)
BASE
Show details
3
Word Sense Induction with Attentive Context Clustering
In: https://hal.archives-ouvertes.fr/hal-03586559 ; 2022 (2022)
BASE
Show details
4
Event/Nonevent Noun Disambiguation Test Set ...
BASE
Show details
5
Event/Nonevent Noun Disambiguation Test Set ...
BASE
Show details
6
Russian Event Noun Disambiguation Test Set (6X200) ...
BASE
Show details
7
Russian Event Noun Disambiguation Test Set (6X200) ...
BASE
Show details
8
Multi-sense Embeddings through a Word Sense Disambiguation Process
BASE
Show details
9
Crowdsourcing lexical semantic judgements from bilingual dictionary users
BASE
Show details
10
Uso de representaciones vectoriales de las palabras para la detección de dobles sentidos (puns)
Carrasco Gómez, Pascual Andrés. - : Universitat Politècnica de València, 2017
BASE
Show details
11
Unsupervised all-words sense distribution learning
Bennett, Andrew. - 2016
BASE
Show details
12
Word Sense Disambiguation Based on Large Scale Polish CLARIN Heterogeneous Lexical Resources
In: Cognitive Studies | Études cognitives; No 15 (2015); 269-292 ; 2392-2397 (2015)
BASE
Show details
13
Translation of keywords between English and Swedish ; Översättning av nyckelord mellan engelska och svenska
Klein Rosmar, Sander; Ahmady, Tobias. - : KTH, Data- och elektroteknik, 2014
BASE
Show details
14
ABSTRACT Long Tail in Weighted Lexical Networks
In: http://hal.inria.fr/docs/00/81/62/36/PDF/COGALEX2012-ML-v4.pdf (2013)
BASE
Show details
15
Désambiguisation de sens par modèles de contextes et son application à la Recherche d’Information
Abstract: Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard. ; It is known that the ambiguity present in natural language has a negative effect on Information Retrieval (IR) systems effectiveness. However, up to now, the efforts made to integrate Word Sense Disambiguation (WSD) techniques in IR systems have not been successful. Past studies end up with either poor or unconvincing results. Furthermore, investigations based on the addition of artificial ambiguity shows that a very high disambiguation accuracy would be needed in order to observe gains. This thesis has for objective to develop efficient and effective approaches for WSD, using co-occurrence statistics in order to build context models. Such models could then be used in order to do a word sense discrimination between a query and documents of a collection. In this two-part thesis, we will start by investigating the principle of strength of relation between a word and the words present in its context, proposing an approach to learn a function mapping word distance to count weights. This method is based on the idea that context models made from random samples of word in context should be similar. Experiments in English and Japanese shows that the strength of relation roughly follows a negative power law. The weights resulting from the experiments are then used in the construction of Naïve Bayes WSD systems. Evaluations of these systems in English with the Semeval-2007 English Lexical Sample (ELS), and then in Japanese with the Semeval-2010 Japanese WSD (JWSD) tasks shows that the systems have state-of-the-art accuracy even though they are much lighter and don't rely on linguistic tools or resources. The second part of this thesis aims to adapt the new methods to IR applications. Such applications put heavy constraints on performance and available resources. We thus propose the use of corpus-based latent context models based on Latent Dirichlet Allocation (LDA). The models are combined with the query likelihood Language Model (LM) approach for IR. Evaluating the systems on three collections from the Text REtrieval Conference (TREC), we observe average proportional improvement in the range of 12% in MAP and 23% in GMAP. We then observe that the gains are mostly made on hard queries, augmenting the robustness of the results. To our knowledge, these experiments are the first positive application of WSD techniques on standard IR tasks.
Keyword: Applied Sciences - Computer Science / Sciences appliqués et technologie - Informatique (UMI : 0984); Computer Science; Context models; Contexte de mots; Désambiguisation de sens; DS; Information Retrieval; Informatique; IR; Modèles de contexte; Natural Language Processing; NLP; Recherche d'Information; RI; TAL; Traitement des langues naturelles; Word context; Word Sense Disambiguation; WSD
URL: http://hdl.handle.net/1866/5070
BASE
Hide details
16
Désambiguisation de sens par modèles de contextes et son application à la Recherche d’Information
BASE
Show details
17
SemEval-2010 Task 2: Cross-Lingual Lexical Substitution
In: Association for Computational Linguistics (ACL) Workshop on Semantic Evaluations (SemEval), 2010, Uppsala, Sweden (2010)
BASE
Show details
18
Word sense disambiguation: a survey
In: http://www.dsi.uniroma1.it/~navigli/pubs/ACM_Survey_2009_Navigli.pdf (2009)
BASE
Show details
19
Regular Polysemy in WordNet
In: ISSN: 0175-1336 ; Journal for language technology and computational linguistics ; https://hal.archives-ouvertes.fr/hal-00611244 ; Journal for language technology and computational linguistics, GSCL (Gesellschaft für Sprachtechnologie und Computerlinguistik) 2009, 24 (2), pp.5-18 (2009)
BASE
Show details
20
The Treatment of Word Sense Inventories in the ‘LACELL WSD Project’
In: International Journal of English Studies; Vol. 9 No. 3 (2009): Special Issue; 21-38 ; International Journal of English Studies; Vol. 9 Núm. 3 (2009): Special Issue; 21-38 ; 1989-6131 ; 1578-7044 (2009)
BASE
Show details

Page: 1 2 3

Catalogues
0
0
0
0
0
0
0
Bibliographies
0
0
0
0
0
0
0
0
0
Linked Open Data catalogues
0
Online resources
0
0
0
0
Open access documents
43
0
0
0
0
© 2013 - 2024 Lin|gu|is|tik | Imprint | Privacy Policy | Datenschutzeinstellungen ändern